Oglas

Budućnost ratovanja

“Etika umjetne inteligencije” ignorira njezinu najsmrtonosniju primjenu: rat

author
N1 Info
01. ruj. 2025. 22:15
A soldier operates an Acecore remotely operated aerial vehicle at the landing platform dock of the Dutch amphibious transport warfare ship
PATRICIA DE MELO MOREIRA / AFP

Tehnološki lideri upozoravaju na apokaliptične scenarije iz znanstvene fantastike, dok vojske već oružavaju umjetnu inteligenciju, navodi se u analizi koju je za Current Affairs napisao Louis Mahon, profesor sa Sveučilišta u Edinburghu.

Oglas

Etika umjetne inteligencije postala je vruća tema u svijetu AI-ja. Pojavljuje se u uvodnim govorima na velikim konferencijama i stvara cijele posvećene timove u velikim kompanijama – dok državni, industrijski i akademski lideri naglašavaju koliko rade na tome da AI ide u “etičnom smjeru”. Naizgled, to je odgovor na opravdane strahove od mogućih (i dokazanih) negativnih posljedica tehnologije, poput prijetnje tržištu rada ili potencijalne štete u zdravstvenim i mentalnozdravstvenim okruženjima, piše za Current Affairs profesor Louis Mahon.

Ali u tim se razgovorima izostavlja iskreno razmatranje najstrašnije primjene od svih: korištenja umjetne inteligencije za izradu oružja. Upotreba AI u vojne svrhe ne dobiva ni približno toliko medijske pažnje kao druge industrije, ali to ne znači da se ne događa. Ako je AI doista toliko sposobna da prijeti zamijeniti naše poslove, koliko je tek prijeteće zamisliti da se ista ta sposobnost usmjerava izravno na izazivanje smrti i razaranja?

Takva je sposobnost, barem zasad, u svojim začecima. Velika većina postojećeg oružja nema nikakve veze s umjetnom inteligencijom. Ali SAD i, koliko se može zaključiti, Kina računaju da će sljedeća generacija oružja ovisiti upravo o njoj. AI bi uskoro mogla preoblikovati vojnu moć u nekoliko ključnih područja, uključujući analizu obavještajnih podataka, navođenje i kontrolu vozila te prepoznavanje ciljeva – sva područja u kojima je strojno učenje posljednjih godina značajno napredovalo, navodi se u tekstu.

Dronovi su očita primjena za AI navođenje i kontrolu, ali da bi se AI mogla u njima koristiti, još uvijek mora riješiti određene tehničke izazove. Prvo, mora postati učinkovitija na ograničenom hardveru – uređajima s malom baterijom i slabom obradom podataka (kao što su dronovi, koji mogu ostati u zraku samo oko 30 minuta, pa mogu izdvojiti tek mali dio energije za obradu podataka). Drugo, mora se uklopiti u sustave s vrlo malim kašnjenjem, odnosno one koji reagiraju gotovo trenutno. Treće, mora moći funkcionirati s bučnim i nepotpunim podacima, jer su to jedini podaci dostupni u stvarnom vremenu na bojištu. Veliki, suvremeni računalni modeli mogu na čistoj snimci gradske ulice lako locirati glavu svake osobe; no pokušajte to isto s modelom dovoljno malim da stane na dron, koristeći mutnu snimku, i rezultat vjerojatno neće biti upotrebljiv. Moguće je, međutim, da će se to uskoro promijeniti. Sva tri problema predmet su aktivnih istraživanja, a automatski sustavi za prepoznavanje ciljeva već se testiraju na bojištima – jedinom mjestu gdje se može saznati hoće li nova vojna tehnologija doista funkcionirati, piše CA.

Ukrajinska operacija SpiderWeb u lipnju 2025. bila je jedno od tih testiranja. Više od 100 dronova prokrijumčareno je preko ruske granice i lansirano prema ruskim zrakoplovnim bazama na kojima su bila parkirana strateška bombarderska zrakoplova. Zelenski je tvrdio da je pogođen 41 zrakoplov vrijedan 7 milijardi dolara. Putin nije komentirao brojke i nazvao operaciju terorističkim napadom na civile – ali razmjeri njegove reakcije potvrđuju da je operacija bila vojni uspjeh, što znači da je nanesena velika šteta, dodaje Mahon.

Obično se dronovima upravlja tako da šalju video i podatke o senzorima natrag pilotu, koji joystickom daje naredbe za kretanje i gađanje. No bežični signali su notorno nepouzdani, posebno kada se šalju iz pokretnih izvora – i neprijatelj ih može ometati. Operacija SpiderWeb još je uvijek uglavnom koristila udaljene pilote, ali su dronovi donosili neke odluke sami, poput navigacije i manjih prilagodbi položaja. Ako bi se veza potpuno izgubila, dronovi su imali rezervni plan u obliku vlastitog ciljnog sustava na ploči, dodaje se u tekstu.

Nije posve jasno koliko je operacija bila automatizirana; Ukrajina možda želi prenaglasiti ulogu AI-ja kako bi njezina vojska izgledala naprednije, ali radi se o nizu koraka prema većoj autonomiji dronova. I Ukrajina i Rusija već masovno koriste dronove, i očito će oni biti ključni u budućim sukobima. Trenutno je “ometanje” jedan od najboljih načina obrane, jer se tako može onesposobiti više dronova odjednom. Ta taktika koristi radiofrekvencije za ometanje signala između drona i pilota. Kada se naruši pravi frekvencijski pojas, sve što ga koristi u tom području prestaje raditi. Ako bi dronovi mogli biti potpuno autonomni – da lete do cilja, pronađu metu, precizno nišane i pucaju – tada im više ne bi trebala nikakva vanjska veza. Jedina obrana bila bi fizičko rušenje, jednog po jednog (teško ako je riječ o velikom roju), uz pomoć projektila skupljih od samih dronova. To bi mogla biti upravo ona revolucionarna tehnologija koju velike vojne sile žele imati.

U međuvremenu, na mjestu s drugom najvećom stopom smrti uzrokovanom ljudskom rukom na svijetu, izraelske obrambene snage predvode drugo područje militarizacije AI-ja. Za razliku od rata u Ukrajini, koji uključuje dvije napredne državne vojske, u Gazi se radi o moćnoj državnoj vojsci na jednoj strani i maloj paravojnoj skupini, plus velikoj nenaoružanoj civilnoj populaciji, na drugoj. To znači da IDF-u ne treba AI za borbu prsa o prsa, nego za intenzivan nadzor kako bi mogao pratiti i ubiti svakoga koga smatra prijetnjom. (IDF je možda ubio više od 60.000 Palestinaca u Gazi, ali ondje i dalje živi više od dva milijuna ljudi.)

Praćenje kretanja čak i 10 posto stanovništva Gaze znači obradu ogromne količine podataka: lokacija mobitela, video snimki, prisluškivanih telefonskih razgovora itd. To je moguće samo uz mnogo automatizacije – i upravo to koristi IDF. Jedan automatizirani sustav, Lavender, identificira potencijalne pripadnike Hamasa iz baze podataka, nakon čega čovjek daje površno odobrenje prije napada. Sustav je treniran na poznatim primjerima ljudi povezanih s Hamasom ili Palestinskim islamskim džihadom i uči opće obrasce njihova ponašanja. Kad pronađe nove ljude sličnih obrazaca, označava ih kao mete. Visoki časnik IDF-a rekao je za izraelsko-palestinsku publikaciju +972 da ima “mnogo više povjerenja” u Lavender nego u ljudske vojnike, jer tehnologija isključuje emocije: “Svi su tamo, uključujući mene, izgubili ljude 7. listopada. Stroj je to učinio hladno. I to je olakšalo", navode iz Current Affairsa.

Ova se tehnologija može povezati s drugim automatiziranim sustavima, poput groteskno nazvanog “Where’s Daddy?”, koji bilježi trenutak kada cilj uđe u određenu lokaciju – obično svoj obiteljski dom – gdje ga je lako ubiti. Kako je rekao izvor iz IDF-a: “Mnogo je lakše bombardirati obiteljsku kuću.” Moguće je da Where’s Daddy? koristi strojno učenje i za predviđanje, primjerice, budućih posjeta ili duljine njihova trajanja. Bez obzira na točno korištene tehnike, riječ je o alatima koji omogućuju vojnu akciju u dosad nezamislivim razmjerima. Nekad je bilo nemoguće pratiti kretanje i dijela stanovništva jedne male zemlje, što je državi otežavalo poraziti narod koji je bio široko ujedinjen protiv nje. No kako strojevi sve bolje preporučuju ciljeve, ravnoteža se pomiče u korist bogate, tehnološki napredne manjine, a na štetu brojnog, slabije opremljenog stanovništva.

Dakle, AI se počinje koristiti u raznim dijelovima “lanca ubijanja”. Lavender i Where’s Daddy? pokrivaju prve dvije faze: identificirati i pronaći; dok dronovi u Ukrajini pokrivaju posljednje dvije: poslati i uništiti. Mogli biste se zapitati: što je tu posebno, usred sveprisutnih ratnih zločina? Bilo da nekoga označi stroj ili čovjek, ubije dron ili vojnik, ishod je isti. A i strojevi i ljudi griješe. Ali čak i ako razmišljate na tako utilitaristički način, postoje barem tri razloga za zabrinutost zbog sadašnje militarizacije umjetne inteligencije.

Prvo, njezina bi uporaba mogla nadmašiti okvire odgovorne primjene. Nakon izuma atomske bombe, trebalo je 20 godina da uopće počnu pregovori o ugovoru o neširenju, a još nekoliko desetljeća za Sporazum o zabrani nuklearnih pokusa. Nije vjerojatno da ćemo vidjeti jedno AI oružje toliko značajno kao nuklearku, ali kumulativno, ono bi moglo stalno mijenjati sposobnosti oružja – i to brže nego što možemo postići dogovor o novim zakonima i ugovorima, dodaje se.

Opća nestabilnost

Drugo, AI bi mogla istodobno učiniti sve moćnijima i ranjivijima – situacija poznata u vojnoj teoriji kao paradoks sposobnosti i ranjivosti. Primjerice, upotreba nafte u Drugom svjetskom ratu učinila je vojske mnogo sposobnijima: morale su je koristiti u tenkovima, brodovima, avionima i bombama, jer bi inače zaostale. Ali to je značilo i da, ako bi im ponestalo nafte, cijeli bi sustav propao. Za korištenje AI-ja vojska treba stabilnu opskrbu računalnom infrastrukturom, dobro obučene radnike koji je razumiju i mnogo podataka. Ako izgubi samo jedan od tih resursa, cijeli sustav može kolabirati. Kada obje strane mijenjaju stabilnost za povećanu moć, tada prvi udar postaje privlačniji, jer se može onesposobiti neprijatelja prije nego što stigne odgovoriti.

Treće, sama nesigurnost oko budućeg razvoja AI-ja stvara opću nestabilnost u međunarodnim odnosima. Povećava sumnjičavost i sklonost kratkoročnom razmišljanju, što ionako gura prema eskalaciji.

Rat i geopolitika su iznimno složeni, a uključenje umjetne inteligencije u jednadžbu čini ih još težima za razumjeti. Trebali bismo ulagati mnogo više napora u definiranje principa djelovanja i pokušati zamisliti kako želimo da se stvari razvijaju. Zato je razočaravajuće što pokret koji se predstavlja kao “etika umjetne inteligencije” o toj temi gotovo i ne govori. Problemi na koje se usredotočuje uključuju, primjerice, mogućnost da AI sustavi nauče varati ili neposlušati ljude, te da, ako ih ne “poravnamo” s ljudskim vrijednostima, mogu početi namjerno nanositi štetu. O uvjerljivosti te prijetnje još se raspravlja, navodi autor teksta.

Druge grane AI etike bave se jasnim problemima, ali znatno manjeg značaja – poput toga da chatbotovi perpetuiraju društvene predrasude (npr. da pretpostave da je liječnik muškarac). Neki fokusi uopće nisu etički problemi u smislu propitivanja što je ispravno ili pogrešno – poput toga da dijagnoze AI-ja budu točne ili da autonomni automobili ne izazivaju nesreće.

Pokret ponekad govori i o sprječavanju zloupotrebe od strane “zločestih aktera”, što barem priznaje da AI može omogućiti ljudima da nanesu štetu jedni drugima. Ali to je daleko od srži problema. Prvo, usredotočuje se gotovo isključivo na chatbotove, konstruirajući poluvjerojatne scenarije u kojima oni pojedincima pomažu napraviti veliko zlo – recimo, izraditi biološko oružje – iako autonomno upravljanje vozilima i prepoznavanje objekata imaju daleko izravniju primjenu u naoružavanju. Drugo, ti “zločesti akteri” jasno ne uključuju, primjerice, američko Ministarstvo obrane – iako je upravo ono najveći svjetski potrošač na AI oružje.

Ako pogledate potrošnju Pentagona, možda ćete naći djelomično objašnjenje za tu golemu prazninu u AI etici. Mnogo istraživača i praktičara u području umjetne inteligencije prima vojno financiranje. Kulturalni jaz između Silicijske doline i vojne industrije ne sprječava prvu da prihvati desetke, ako ne i stotine milijardi dolara, od druge. Dio dolazi kroz ugovore Ministarstva obrane – koje tradicionalno preuzimaju tvrtke poput Lockheed Martina. No ugovore dobivaju i divovi poput Amazona i Microsofta, kao i Palantir i niz vojnih AI startupa.

dron-US-MILITARY
JAM STA ROSA / AFP / Ilustracija

Novac dolazi i kroz istraživačke grantove sveučilištima i institutima. Carnegie Mellon ima više od 20 ugovora s Ministarstvom obrane SAD-a, uključujući više od 3 milijuna dolara od vojne AI radne skupine za razvoj izviđačkih alata koji povećavaju “ubojitost i preživljavanje” vojnika, oko 5 milijuna dolara za “AI fuziju” i oko 13,4 milijuna za “jačanje nacionalne sigurnosti i obrane”. Pentagon je ukupno 2022. potrošio više od 3 milijarde dolara na osnovna istraživanja, a proračun mu od tada stalno raste. Detalji interesa su povjerljivi, ali s obzirom na prioritete, jasno je da je AI značajan dio. A to se odnosi samo na istraživanja – za samu primjenu u vojne svrhe predviđeno je zasebnih 80 milijardi dolara. Kina troši trećinu tog iznosa, ali detalje još čvršće skriva; ipak, logično je pretpostaviti da velik dio odlazi na AI, dodaje Mahon.

Gdje taj novac završava? Lako je pronaći AI radove iz sveučilišta i industrijskih laboratorija koji eksplicitno priznaju DARPA-inu potporu (agencija pod Ministarstvom obrane), a vjerojatno ih je još mnogo koji tu povezanost umanjuju. Na većini konferencija autori moraju komentirati moguće štetne primjene svojih istraživanja. Ako se tehnologija može koristiti za oružje, ispravni bi odgovori bili “mogla bi se koristiti za ubijanje ljudi”, “mogla bi pogoršati nasilni državni nadzor i etničko čišćenje” ili “mogla bi pridonijeti AI utrci u naoružanju i destabilizaciji međunarodnih odnosa”. No teško da će itko to otvoreno reći svojim financijerima. Ako vaše istraživanje izravno financira vojska, teško da ćete priznati masovni nadzor, smrt i razaranje kao moguće štetne ishode – kad su upravo ti ishodi cilj.

Još jedan ključan razlog zašto se AI etika fokusira na ono na što se fokusira jesu šira uvjerenja malog broja ljudi koji vode taj pokret. Velik dio AI svijeta predvodi Silicijska dolina, posebice OpenAI i Anthropic, pa je AI etika prožeta njihovim svjetonazorom. To znači da slijedi nekoliko dogmi: da znanost i tehnološki napredak mogu riješiti gotovo sve današnje probleme; da će AI, a posebno LLM-ovi, radikalno transformirati život u idućim godinama; i da je ključno da SAD vodi tu revoluciju, jer je jedina zemlja koja će tu moć koristiti “dobrohotno”.

U ovom svjetonazoru prihvatljivo je raspravljati o pogrešno postavljenoj medicinskoj dijagnozi, ali je mnogo neugodnije razmišljati o tome da IDF koristi strojno učenje i računalne usluge koje pružaju SAD za planiranje bombardiranja obiteljskih kuća. Dok se prvo može prikazati kao vrlo zabrinjavajuće, ono ne dovodi u pitanje nijednu od temeljnih dogmi, dok drugo to zasigurno čini.

Omiljena distopijska fantazija o opasnosti jest ona o odbjegloj superinteligenciji, koja svoj cilj provodi toliko učinkovito da počinje ubijati ljude. (Na primjer, AI dobije uputu da iskorijeni rak, a to postigne tako da istrijebi cijelu ljudsku rasu.) Takvi scenariji savršeno se uklapaju u vjerovanje da su proizvodi temeljeni na LLM-ovima iznimno moćni – i njihove tvorce prikazuju kao plemenite čuvare te velike moći. Hvala Bogu da smo to mi, “dobri momci”, ti koji smo najbolji na svijetu u gradnji LLM-ova, jer ćemo se pobrinuti da ih koristimo pravedno, za razliku od “onih drugih”. A “oni drugi” ovdje zapravo znači Kina – jedina druga zemlja koja je sposobna proizvoditi svjetski vodeće LLM-ove.

Kada je kineska tvrtka DeepSeek u siječnju 2025. objavila svoj model R1, mnogi u Silicijskoj dolini reagirali su kao da je riječ o činu agresije Kineske komunističke partije. Uslijedili su brojni pozivi da SAD pojača tempo u AI utrci u naoružanju, a Meta je čak sastavila hitne “ratne sobe” kako bi analizirala gdje je nadmašena. Normalna tržišna konkurencija preoblikovala se u narativ da su inženjeri Silicijske doline zaduženi za obranu same demokracije.

To daje i drugu perspektivu na spomenute “zločeste aktere”. Ograničavanje izvoza GPU-a ili zabrana DeepSeeka sada se može prodati kao etika umjetne inteligencije: način da se osigura trijumf slobode, zaključuje se u analizi.

Teme

Kakvo je tvoje mišljenje o ovome?

Pridruži se raspravi ili pročitaj komentare

Pratite nas na društvenim mrežama